人类参与者根据解释者对被解释者 1 的信念,向不同的被解释者(即解释的接受者)给出了不同的解释。当然,玛丽的解释好坏取决于她能否模拟室友的心理状态,以及他们如何根据她的解释改变自己的心理状态。玛丽对鲍勃和汤姆的信念的信念,或者她对他们每个人如何修改信念的信念,很可能是错误的,在这种情况下,她对他们的解释可能无法解释为什么地板是湿的。解释已在多种学科中得到研究。Miller [28] 对人工智能中的解释进行了广泛的调查,其中包括一系列哲学历史著作(例如,Hempel 和 Oppenheim [19];Peirce [32];Harman [17]),主张哲学和社会科学在未来解释研究中的重要作用。在人工智能领域,早期的解释研究包括各种基于逻辑和概率的溯因推理方法或所谓的最佳解释推理,包括 Pople [35]、Charniak 和 McDermott [10]、Poole [33] 和 Levesque [24] 的早期作品。在 20 世纪 80 年代中期,解释在专家系统的背景下得到普及,其中解释通常通过对一组符号推理步骤进行反向链接而生成(例如,[18, 40])。在此之后,解释成为符号 AI 推理各种应用中的共同元素(例如,[26、3、42])。最近对解释兴趣的复苏主要是以所谓的可解释 AI (XAI) 为幌子,其动机是需要为黑箱分类和基于机器和深度学习的决策系统中的决策提供人类可解释的解释(例如,Samek 等人[39];Gunning 等人[14])。许多研究人员已经承认心智理论在解释中的重要性。在 20 世纪 80 年代和 90 年代,G¨ardenfors [12] 和 Chajewska 和 Halpern [7] 等学者提出的正式解释理论认为,对一个代理的解释可能不适用于对另一个代理的解释,因此解释者必须根据被解释者的信念为其量身定制解释。在用户建模和对话领域,同样设定在 20 世纪 80 年代和 90 年代,Weiner 的 [46] BLAH 系统和 Cawsey 的 [6] EDGE 系统都根据假定的用户模型定制解释。[16];Kaptein 等人。[22])。最近,Westberg 等人。最近,研究人员利用信念-愿望-意图 (BDI) 架构作为反映心智理论的自然解释框架。此类软件架构可使解释者明确表达自己的信念、愿望和意图,以及被解释者的信念、愿望和意图,并将解释与其自己的信念和目标或被解释者的信念和目标联系起来(例如,Harbers 等人。[47] 认为,结合认知科学对心智理论的各种观点将有助于创建更适合与人类交流和解释自己的代理。此外,Miller [28] 调查了这方面的工作,并强调了解释者的重要性